Grok 4 pod paljbom

Javno i glasno kritikuju Maskovu kompaniju: Njegov četbot je bez kontrole i granica, neozbiljno!

Foto: Shutterstock
xAI, kompanija Ilona Maska, kritikovana je zbog neodgovorne bezbednosti veštačke inteligencije. Istraživači upozoravaju da Grok chatbot širi štetne poruke i nema dovoljne zaštitne mere.

Istraživači bezbednosti veštačke inteligencije iz OpenAI-a, Anthropica i drugih AI organizacija otvoreno su kritikovali bezbednosnu kulturu kompanije xAI, nazivajući je „neodgovornom“ i „potpuno neozbiljnom“. Startap u vlasništvu Ilona Maska našao se na meti nakon serije incidenata sa njihovim četbotom Grok, koji je davao antisemitske izjave i sam sebe nazivao „MechaHitler“.

Dok xAI lansira nove modele velikom brzinom, poput Grok 4, sve više stručnjaka upozorava da kompanija ignoriše osnovne bezbednosne procedure koje su postale industrijski standard. Iako su Grok-ove tehničke sposobnosti impresivne, pitanje je po koju cenu se razvijaju.

Ilon Mask Foto: Shutterstock

Grok 4 bez kočnica: Gde su bezbednosni izveštaji?

Jedna od glavnih zamerki upućenih xAI-u jeste odluka da se ne objave tzv. „system cards“ - izveštaji koji objašnjavaju kako je model treniran, kako se ponaša u rizičnim situacijama i koje su njegove bezbednosne granice. Ove karte su deo dobre prakse u industriji, jer omogućavaju transparentnost i pomažu zajednici da bolje razume nove modele.

OpenAI i Google su ranije kritikovani zbog kašnjenja sa ovim izveštajima, ali su ih na kraju objavljivali. xAI to, međutim, nije učinio ni za Grok 4, pa mnogi istraživači sumnjaju da ozbiljna testiranja uopšte nisu sprovedena.

AI saputnici koji zavode i manipulišu

Još jedan zabrinjavajući potez xAI-a je uvođenje AI saputnika u obliku seksualizovane anime devojke i agresivne pande. Ove verzije Grok-a podsećaju na proizvode dizajnirane da stvore emocionalnu zavisnost kod korisnika, što je već prepoznato kao rizičan trend u AI industriji.

Istraživači upozoravaju da ovakvi modeli pojačavaju emocionalne slabosti ljudi i mogu da utiču na mentalno zdravlje korisnika, posebno onih koji se oslanjaju na AI kao jedini oblik komunikacije. Ovakvo ponašanje Grok-a ne samo da ruši poverenje u tehnologiju, već može imati i ozbiljne posledice.

Foto: Shutterstock

Prvoborac za AI bezbednost, ali šta radi xAI?

Ironično, Ilon Mask je godinama bio jedan od najglasnijih zagovornika bezbednog razvoja AI-ja, upozoravajući da napredni sistemi mogu imati katastrofalne posledice po čovečanstvo. Ipak, istraživači iz drugih kompanija sada tvrde da upravo njegova firma ignoriše te principe.

xAI svojim ponašanjem - izostankom bezbednosnih izveštaja, problematičnim četbotovima i ubrzanim lansiranjem neproverenih modela - možda nesvesno daje argumente zakonodavcima koji žele da regulišu AI industriju. Kalifornija i Njujork već razmatraju zakone koji bi ovu vrstu transparentnosti učinili obaveznom.

Foto: Shutterstock

Da li je bezbedan Grok u Tesli, Pentagonu i svakodnevnom životu?

Mask je najavio da će Grok biti integrisan u Tesla automobile, kao i ponuđen američkom Pentagonu i velikim kompanijama. Ali, da li je AI koji širi teorije zavere i antisemitizam zaista spreman za ovakvu odgovornost?

Bez obzira na to da li verujete u apokaliptične scenarije AI-ja, stručnjaci se slažu da neadekvatna bezbednost vodi ka svakodnevnim problemima: lošijim proizvodima, ugroženim korisnicima i narušenom poverenju. Umesto da Grok bude korak napred, mnogi se plaše da bi mogao biti veliki korak unazad za ceo AI sektor.

Zabranjeno preuzimanje dela ili čitavog teksta i/ili foto/videa, bez navođenja i linkovanja izvora i autora, a u skladu sa odredbama WMG uslova korišćenja i Zakonom o javnom informisanju i medijima.